Ciencia de datos con R
Author

(Fernández‑Avilés & Montero, 2024, pp. 60-62)

4.2 Los principios éticos

Un principio no es ni más ni menos que aquello que permite preservar los derechos y libertades de las personas, sin frenar la innovación tecnológica (Villas and Camacho, 2022). La mayoría de los principios se pueden agrupar en cuatro grandes categorías: autonomía, justicia, evitar daños y generar beneficios. Algunos ejemplos de principios que se pueden clasificar en alguna de estas categorías son: transparencia, explicabilidad, privacidad, accesibilidad o equidad. Aunque no hay aún un acuerdo a nivel mundial sobre cuáles deberían ser los principios claves de la inteligencia artificial (IA), sí que se están desarrollando proyectos supranacionales como el de la UNESCO1, que ha sido firmado recientemente por todos sus miembros.

Desde principios de 2010, el crecimiento de la ciencia de datos ha sido exponencial y ha comenzado a usarse en todas las industrias de manera sistemática, entre otras cosas gracias al Big Data. Actualmente, se dispone de más datos que nunca y solo se analiza un 5% de ellos. Además, se han producido enormes mejoras en la computación con el surgimiento de nuevos procesadores y también han ocurrido grandes cambios en el área de la algoritmia, teniendo disponibles muchos más algoritmos que nunca, lo que facilita su reutilización. Por ello, la demanda de científicos de datos que conviertan dichos datos en información clave para las empresas ha crecido enormemente en los últimos años.

Asimismo, desde 2016, distintos organismos, asociaciones, empresas y gobiernos han publicado numerosos documentos, donde se resalta la importancia de la necesidad de principios éticos para la ciencia de datos. Google, IBM y Amazon, en el ámbito de las empresas privadas, publicaron sus principios éticos en el 2018. También son muy conocidos los principios de Asilomar de 2016 o la declaración de Toronto de 2017. La mayoría de estos documentos están desarrollados por perfiles multidisciplinares: científicos de datos, abogados o expertos en ética, que resaltan la importancia de tener en cuenta los principios éticos en la toma de decisiones automáticas cuando se utiliza la ciencia de datos.

En definitiva, las cuestiones éticas se están incorporando poco a poco en los proyectos de ciencia de datos en todo el mundo, siendo la regulación europea publicada en abril de 2021 un ejemplo a seguir. Esta regulación, diseñada a lo largo de tres años, parte de un primer documento en 2018 que fue liderado por un grupo de expertos de todos los países miembros: HLEGAI (High Level Expert Group Artificial Intelligence). A partir de este primer documento se publicaron otros incluyendo los comentarios y mejoras sugeridas por la sociedad civil, instituciones públicas, empresas e instituciones académicas, hasta, finalmente, publicarse, en abril de 2021, el actual documento de regulación de IA.

En el actual documento regulatorio, se eligió un enfoque basado en riesgos:

  • Riesgo inaceptable, como el uso de aplicaciones de social scoring o de imágenes para procesos de administración de justicia.

  • Riesgo alto, como el uso de aplicaciones de contratación o médicas, que deberán ser supervisadas por organismos designados antes de su publicación.

  • Riesgo medio, como el uso de aplicaciones en las que hay que incluir las explicaciones necesarias (dependiendo del tipo de algoritmo de que se trate) para que el usuario pueda entender el proceso de toma de decisiones.

  • Riesgo bajo, para cualquier otro tipo de aplicación.

En el resto del mundo, el progreso en este tipo de regulación está siendo algo más lento, aunque países como Estados Unidos, que hasta ahora no habían puesto el foco en este tipo de regulaciones, están empezando a trabajar en ello desde finales de 2021. Por otro lado, China, conocida mundialmente por su falta de respeto a la privacidad, está empezando a dar algún paso en esta área y comenzando a cambiar su política en este sentido. Como ejemplo, en marzo de 2022, ha lanzado una regulación en la que las empresas tienen que informar mejor a los usuarios sobre sus algoritmos de recomendación. En definitiva, parece que la necesidad de la ética para proyectos de ciencia de datos está avanzando poco a poco en todas las geografías, y Europa es, por el momento, un ejemplo a seguir.

Llegados a este punto, conviene distinguir entre regulaciones legales y principios éticos. Generalmente, las regulaciones legales son coercitivas y su inclumplimiento puede tener consecuencias punitivas para quienes no las ratifican e implementan. Estos principios legales, para que sean legítimos, deben fundamentarse e inspirarse en ciertos valores éticos. Ahora bien, es imposible e indeseable regular legalmente todos los aspectos del comportamiento humano, de ahí la necesidad de compartir un marco de valores. La ética permitirá al científico de datos considerar cuál es la mejor decisión cuando exista un vacío legal. El razonamiento ético implica, pues, asumir la responsabilidad de pensar de manera autónoma.

Ahora bien, dado que no hay un acuerdo a nivel mundial sobre cuáles son los principios éticos más importantes para la ciencia de datos, en este capítulo se han seleccionado la equidad y la explicabilidad, por estar entre los que más deben tener en cuenta los expertos en ciencia de datos. Además, son dos de los principios en los que se centra la regulación europea.